বিস্তার পরিমাপ ও সম্ভাবনা (Measures of Dispersions and Probability)

একাদশ- দ্বাদশ শ্রেণি - উচ্চতর গণিত - উচ্চতর গণিত – ২য় পত্র | NCTB BOOK

বিস্তার পরিমাপ (Measures of Dispersions) এবং সম্ভাবনা (Probability) দুটি গুরুত্বপূর্ণ গাণিতিক ধারণা যা পরিসংখ্যান এবং গাণিতিক বিশ্লেষণের ক্ষেত্রে ব্যাপকভাবে ব্যবহৃত হয়। এখানে সংক্ষেপে তাদের ব্যাখ্যা করা হলো:


বিস্তার পরিমাপ (Measures of Dispersions)

বিস্তার পরিমাপ হল এমন একটি পদ্ধতি যা কোনো সংখ্যার সেটের মধ্যে মানগুলির ছড়িয়ে পড়া বা পরিবর্তনশীলতা পরিমাপ করে। এর মাধ্যমে আমরা জানাতে পারি যে, কোনো ডেটাসেটের মানগুলি একে অপরের থেকে কতটা দূরে বা কাছাকাছি।

বিস্তারের বিভিন্ন পরিমাপের মধ্যে কিছু প্রধান পদ্ধতি হল:

  1. পরিসীমা (Range)
    এটি সবচেয়ে সহজ বিস্তার পরিমাপ। একটি ডেটাসেটের সর্বোচ্চ মান থেকে সর্বনিম্ন মান বাদ দিয়ে যা পাওয়া যায়, তা হলো পরিসীমা।

    \[
    \text{Range} = \text{Maximum value} - \text{Minimum value}
    \]

  2. প্রমিত বিচ্যুতি (Standard Deviation)
    এটি ডেটাসেটের মধ্যে প্রতিটি মানের গড় থেকে কতটুকু বিচ্যুত হচ্ছে, তা পরিমাপ করে। একটি কম প্রমিত বিচ্যুতি মানে ডেটা পয়েন্টগুলো গড়ের কাছে থাকে, আর একটি বড় মানে ডেটা পয়েন্টগুলো বেশি ছড়িয়ে থাকে।

    \[
    \sigma = \sqrt{\frac{1}{N} \sum_{i=1}^{N} (x_i - \mu)^2}
    \]

    যেখানে \( x_i \) হলো প্রতিটি ডেটা পয়েন্ট এবং \( \mu \) হলো গড়।

  3. বিচ্যুতি (Variance)
    প্রমিত বিচ্যুতির বর্গ হলো বিচ্যুতি। এটি বিস্তার পরিমাপের আরেকটি গুরুত্বপূর্ণ উপায়।

    \[
    \text{Variance} = \frac{1}{N} \sum_{i=1}^{N} (x_i - \mu)^2
    \]


সম্ভাবনা (Probability)

সম্ভাবনা হলো কোন একটি ঘটনার সংঘটিত হওয়ার সম্ভাবনা বা সুযোগের পরিমাপ। এটি সাধারণত \(0\) থেকে \(1\) এর মধ্যে একটি সংখ্যা দিয়ে প্রকাশ করা হয়, যেখানে \(0\) মানে কোনো ঘটনা ঘটবে না এবং \(1\) মানে ওই ঘটনা নিশ্চয় ঘটবে।

  1. প্রাথমিক ধারণা
    সম্ভাবনার সূত্র অনুযায়ী, কোনো একটি ঘটনা A ঘটার সম্ভাবনা হলো, সেটির সফল হওয়া ঘটনার সংখ্যা ভাগ করা ওই সমস্ত ঘটনার মোট সংখ্যার সঙ্গে।

    \[
    P(A) = \frac{\text{Number of favorable outcomes}}{\text{Total number of possible outcomes}}
    \]

  2. সম্ভাবনা নিয়ম
    • যোগ নিয়ম (Addition Rule): দুটি ঘটনা \(A\) এবং \(B\) এর মধ্যে যেকোনো একটি ঘটার সম্ভাবনা হলো:

      \[
      P(A \cup B) = P(A) + P(B) - P(A \cap B)
      \]

    • গুণ নিয়ম (Multiplication Rule): দুটি ঘটনা \(A\) এবং \(B\) একসঙ্গে ঘটার সম্ভাবনা হলো:

      \[
      P(A \cap B) = P(A) \times P(B \mid A)
      \]


এই দুটি ধারণা পরিসংখ্যান এবং গাণিতিক বিশ্লেষণে গুরুত্বপূর্ণ ভূমিকা পালন করে। তাদের মাধ্যমে ডেটা বিশ্লেষণ, সিদ্ধান্ত গ্রহণ এবং মডেল তৈরিতে সহায়ক তথ্য প্রদান করা হয়।

উপাত্তের বিস্তার পরিমাপ

উপাত্তের বিস্তার পরিমাপ (Measures of Dispersion) হলো এমন একটি গাণিতিক কৌশল যা কোনো একটি ডেটাসেটের মানগুলির মধ্যে বৈচিত্র্য বা ছড়িয়ে পড়ার পরিমাণ নির্ণয় করে। এটি আমাদের বুঝতে সাহায্য করে, ডেটা পয়েন্টগুলি গড়ের কাছাকাছি আছে নাকি বেশ ছড়িয়ে আছে।

বিস্তার পরিমাপের কিছু প্রধান পদ্ধতি হলো:


১. পরিসীমা (Range)

পরিসীমা হলো ডেটাসেটের সর্বোচ্চ মান থেকে সর্বনিম্ন মান বিয়োগ করে প্রাপ্ত মান। এটি একটি সহজ এবং সাধারণ বিস্তার পরিমাপ। তবে এটি শুধুমাত্র ডেটাসেটের সবচেয়ে বড় এবং সবচেয়ে ছোট মানের ওপর নির্ভরশীল, তাই মাঝে অন্যান্য মানগুলোর প্রভাব পড়তে পারে না।

ফর্মুলা:

\[
\text{Range} = \text{Maximum value} - \text{Minimum value}
\]


২. গড় বিচ্যুতি (Mean Deviation)

গড় বিচ্যুতি হলো একটি ডেটাসেটের প্রতিটি মানের গড় (mean) থেকে তার বিচ্যুতির গড়। এটি ডেটাসেটের মানগুলোর গড় থেকে কতটুকু বিচ্যুত হচ্ছে, তা পরিমাপ করে।

ফর্মুলা:

\[
\text{Mean Deviation} = \frac{1}{N} \sum_{i=1}^{N} |x_i - \mu|
\]

এখানে,

  • \(x_i\) হলো প্রতিটি ডেটা পয়েন্ট,
  • \(\mu\) হলো গড় মান,
  • \(N\) হলো ডেটা পয়েন্টের সংখ্যা।

৩. বিচ্যুতি (Variance)

বিচ্যুতি হলো প্রতিটি ডেটা পয়েন্টের গড় মান থেকে তার বিচ্যুতি (দ্বিগুণ) করে এর গড়। এটি ডেটাসেটের বিস্তৃতির পরিমাপ প্রদান করে। একটি কম বিচ্যুতি মানে ডেটা পয়েন্টগুলো গড়ের কাছাকাছি থাকে, আর একটি বড় বিচ্যুতি মানে ডেটা পয়েন্টগুলো বেশি ছড়িয়ে থাকে।

ফর্মুলা:

\[
\text{Variance} = \frac{1}{N} \sum_{i=1}^{N} (x_i - \mu)^2
\]

এখানে,

  • \(x_i\) হলো প্রতিটি ডেটা পয়েন্ট,
  • \(\mu\) হলো গড় মান,
  • \(N\) হলো ডেটা পয়েন্টের সংখ্যা।

৪. প্রমিত বিচ্যুতি (Standard Deviation)

প্রমিত বিচ্যুতি হলো বিচ্যুতির বর্গমূল। এটি ডেটাসেটের বিস্তার পরিমাপের আরো সাধারণ উপায়, কারণ এটি একই একক (unit) এ থাকে যা মূল ডেটার একক। এটি ডেটা পয়েন্টের গড় থেকে কতটুকু বিচ্যুতি হচ্ছে, তা স্পষ্টভাবে বোঝায়।

ফর্মুলা:

\[
\sigma = \sqrt{\frac{1}{N} \sum_{i=1}^{N} (x_i - \mu)^2}
\]

এখানে,

  • \(\sigma\) হলো প্রমিত বিচ্যুতি,
  • \(x_i\) হলো প্রতিটি ডেটা পয়েন্ট,
  • \(\mu\) হলো গড় মান,
  • \(N\) হলো ডেটা পয়েন্টের সংখ্যা।

৫. কোয়ারটাইল বিচ্যুতি (Interquartile Range, IQR)

কোয়ারটাইল বিচ্যুতি হলো প্রথম কোয়ারটাইল (Q1) এবং তৃতীয় কোয়ারটাইল (Q3) এর মধ্যে পার্থক্য। এটি ডেটাসেটের মধ্যবর্তী ৫০% ডেটা কতটুকু বিস্তৃত তা পরিমাপ করে। IQR হলো গড় মানের উপর নির্ভর না করে ডেটার স্ক্যাটারকে বিশ্লেষণ করে।

ফর্মুলা:

\[
\text{IQR} = Q3 - Q1
\]

এখানে,

  • \(Q1\) হলো প্রথম কোয়ারটাইল (25%),
  • \(Q3\) হলো তৃতীয় কোয়ারটাইল (75%)।

এগুলি হলো বিস্তার পরিমাপের কিছু গুরুত্বপূর্ণ পদ্ধতি, যেগুলি ডেটাসেটের বৈচিত্র্য বা পরিবর্তনশীলতা পরিমাপ করতে ব্যবহৃত হয়।

শ্রেণিকৃত ও অশ্রেণিকৃত তথ্যের ক্ষেত্রে পরিমিত ব্যবধান ও ভেদাংক

শ্রেণিকৃত (Grouped) ও অশ্রেণিকৃত (Ungrouped) তথ্যের ক্ষেত্রে পরিমিত ব্যবধান (Measures of Central Tendency) এবং ভেদাংক (Measures of Dispersion) দুটি গুরুত্বপূর্ণ পরিমাপ যা পরিসংখ্যানের ক্ষেত্রে ব্যাপকভাবে ব্যবহৃত হয়। এগুলি আমাদের ডেটাসেটের গড় বা কেন্দ্রীয় প্রবণতা এবং তার বিস্তার বা বৈচিত্র্য বোঝাতে সাহায্য করে।


১. শ্রেণিকৃত (Grouped) তথ্য

শ্রেণিকৃত তথ্য হলো সেই ধরনের তথ্য যেখানে ডেটা গোষ্ঠীতে বা শ্রেণীতে ভাগ করা থাকে। এই ধরনের তথ্য সাধারণত ফ্রিকোয়েন্সি ডিস্ট্রিবিউশন বা হিস্টোগ্রাম আকারে উপস্থাপন করা হয়।

পরিমিত ব্যবধান

পরিমিত ব্যবধানের মধ্যে সবচেয়ে গুরুত্বপূর্ণ গড় (Mean), মধ্যক (Median), এবং মধ্যম মান (Mode) থাকে। শ্রেণিকৃত তথ্যের জন্য গড় এবং মধ্যক বের করার জন্য ফর্মুলা কিছুটা পরিবর্তিত হয়।

  1. গড় (Mean)
    শ্রেণিকৃত তথ্যের গড় বের করার জন্য, শ্রেণীগুলির কেন্দ্রীয় মান (Class Mark, \( x_i \)) এবং তাদের ফ্রিকোয়েন্সি (\( f_i \)) ব্যবহার করা হয়:

    \[
    \text{Mean} = \frac{\sum{f_i x_i}}{\sum{f_i}}
    \]

    যেখানে:

    • \( f_i \) হলো শ্রেণির ফ্রিকোয়েন্সি,
    • \( x_i \) হলো শ্রেণির কেন্দ্রীয় মান (Class Mark)।
  2. মধ্যক (Median)
    শ্রেণিকৃত তথ্যের মধ্যে মধ্যক নির্ণয় করতে, মোট সংখ্যক ডেটা (\( N \)) এর অর্ধেকের সমান অবস্থান খুঁজে বের করা হয়। তারপর শ্রেণী এবং তার মধ্যক মান ব্যবহার করে গণনা করা হয়।

    \[
    \text{Median} = L + \left(\frac{\frac{N}{2} - F}{f}\right) \times h
    \]

    এখানে:

    • \( L \) হলো মিডিয়ান শ্রেণির নিম্ন সীমা,
    • \( F \) হলো শ্রেণির পূর্ববর্তী ফ্রিকোয়েন্সির যোগফল,
    • \( f \) হলো মিডিয়ান শ্রেণির ফ্রিকোয়েন্সি,
    • \( h \) হলো শ্রেণীর ব্যাপ্তি (class width)।
  3. মধ্যম মান (Mode)
    শ্রেণিকৃত তথ্যের জন্য মোড (Mode) নির্ণয় করতে, সবচেয়ে বেশি ফ্রিকোয়েন্সি সম্পন্ন শ্রেণী চিহ্নিত করা হয়, এবং তা থেকে মোড বের করা হয়।

    \[
    \text{Mode} = L + \left(\frac{f_1 - f_0}{2f_1 - f_0 - f_2}\right) \times h
    \]

    এখানে:

    • \( L \) হলো মোড শ্রেণির নিম্ন সীমা,
    • \( f_1 \) হলো মোড শ্রেণির ফ্রিকোয়েন্সি,
    • \( f_0 \) হলো মোড শ্রেণির পূর্ববর্তী শ্রেণির ফ্রিকোয়েন্সি,
    • \( f_2 \) হলো পরবর্তী শ্রেণির ফ্রিকোয়েন্সি,
    • \( h \) হলো শ্রেণীর ব্যাপ্তি (class width)।

ভেদাংক (Measures of Dispersion)

  1. বিচ্যুতি (Variance)
    শ্রেণিকৃত তথ্যের জন্য বিচ্যুতি বের করতে, প্রথমে শ্রেণির গড় (Mean) বের করতে হয়, তারপর প্রতিটি শ্রেণীর ফ্রিকোয়েন্সি এবং কেন্দ্রীয় মান ব্যবহার করে ভেদাংক নির্ণয় করা হয়।

    \[
    \text{Variance} = \frac{\sum{f_i (x_i - \mu)^2}}{\sum{f_i}}
    \]

    এখানে:

    • \( f_i \) হলো শ্রেণির ফ্রিকোয়েন্সি,
    • \( x_i \) হলো শ্রেণির কেন্দ্রীয় মান,
    • \( \mu \) হলো গড় মান।
  2. প্রমিত বিচ্যুতি (Standard Deviation)
    প্রমিত বিচ্যুতি বিচ্যুতির বর্গমূল। এটি ডেটার বিস্তার বা বৈচিত্র্য পরিমাপ করতে ব্যবহৃত হয় এবং এর একক ডেটার সাথে সামঞ্জস্যপূর্ণ থাকে।

    \[
    \text{Standard Deviation} = \sqrt{\frac{\sum{f_i (x_i - \mu)^2}}{\sum{f_i}}}
    \]


২. অশ্রেণিকৃত (Ungrouped) তথ্য

অশ্রেণিকৃত তথ্য হলো সেসব তথ্য, যেখানে ডেটা শ্রেণীতে বিভক্ত করা হয় না এবং প্রতিটি ডেটা পয়েন্ট আলাদাভাবে বিবেচিত হয়। সাধারণত এই ধরনের ডেটাতে পরিসংখ্যান পরিমাপ সহজ হয়।

পরিমিত ব্যবধান

  1. গড় (Mean)
    গড় বের করতে, সব ডেটা পয়েন্টের যোগফল ভাগ করা হয় ডেটা পয়েন্টের সংখ্যা দিয়ে:

    \[
    \text{Mean} = \frac{\sum{x_i}}{N}
    \]

    এখানে:

    • \( x_i \) হলো প্রতিটি ডেটা পয়েন্ট,
    • \( N \) হলো মোট ডেটা পয়েন্টের সংখ্যা।
  2. মধ্যক (Median)
    অশ্রেণিকৃত ডেটাতে, প্রথমে ডেটাগুলি সাজিয়ে তারপর মধ্যম মান বের করা হয়। যদি ডেটার সংখ্যা বিজোড় হয়, তাহলে মাঝের মান হয়; আর যদি পূর্ণসংখ্যক হয়, তাহলে মাঝের দুটি মানের গড় নেওয়া হয়।
  3. মধ্যম মান (Mode)
    মোড হলো সেই মান যা সর্বাধিক সংখ্যক বার ঘটে। এটি ডেটার মধ্যে সবচেয়ে ঘনিষ্ঠ বা সবচেয়ে সাধারণ মান।

ভেদাংক (Measures of Dispersion)

  1. বিচ্যুতি (Variance)
    অশ্রেণিকৃত তথ্যের বিচ্যুতি বের করার জন্য, প্রথমে গড় বের করে তারপর প্রতিটি ডেটা পয়েন্টের গড় থেকে তার বিচ্যুতি বের করা হয়:

    \[
    \text{Variance} = \frac{\sum{(x_i - \mu)^2}}{N}
    \]

  2. প্রমিত বিচ্যুতি (Standard Deviation)
    প্রমিত বিচ্যুতি হলো বিচ্যুতির বর্গমূল, যা ডেটার বৈচিত্র্য এবং বিস্তার পরিমাপ করে:

    \[
    \text{Standard Deviation} = \sqrt{\frac{\sum{(x_i - \mu)^2}}{N}}
    \]


উপসংহার
শ্রেণিকৃত এবং অশ্রেণিকৃত তথ্যের জন্য পরিমিত ব্যবধান এবং ভেদাংক নির্ণয়ের পদ্ধতিতে কিছু পার্থক্য থাকে, তবে দুই ক্ষেত্রেই গড়, মধ্যক, মোড, বিচ্যুতি, এবং প্রমিত বিচ্যুতি এর মাধ্যমে তথ্যের কেন্দ্রীয় প্রবণতা এবং বিস্তার বিশ্লেষণ করা হয়।

একই ঘটনার পুনরাবৃতি ঘটলে সম্ভাবনা

একই ঘটনার পুনরাবৃতি ঘটলে সম্ভাবনা (Probability of Repeated Occurrence of the Same Event) বিষয়টি সাধারণত সামগ্রিক সম্ভাবনা (Cumulative Probability) বা অনুপ্রবাহ সম্ভাবনা (Compound Probability) হিসেবে বিবেচনা করা হয়। যদি কোনো ঘটনা বারবার ঘটতে থাকে, তবে তার সম্ভাবনা নির্ণয় করতে আমরা কিছু গাণিতিক নিয়ম ব্যবহার করি।

এখানে আলোচনা করা হলো এমন কিছু মূল ধারণা:


১. একক ঘটনা পুনরাবৃত্তি

ধরা যাক, একটি নির্দিষ্ট ঘটনা \( A \) এর সম্ভাবনা \( P(A) \) আছে এবং আমরা চাই, \( A \) ঘটনা দুটি বা তার বেশি বার পুনরাবৃত্তি ঘটুক।

দুটি ঘটনার সম্ভাবনা (Independent Events)

যদি \( A \) ঘটনা দুটি বা তার বেশি বার ঘটে এবং প্রতিটি ঘটনার সম্ভাবনা একে অপরের থেকে নিরপেক্ষ (independent) হয়, তাহলে গুণ নিয়ম (Multiplication Rule) ব্যবহার করা হয়। উদাহরণস্বরূপ:

  1. যদি \( P(A) \) ঘটনার সম্ভাবনা \( p \) হয়, তাহলে \( A \) দুটি বার ঘটার সম্ভাবনা হবে:

\[
P(A \text{ ঘটবে 2 বার}) = P(A) \times P(A) = p \times p = p^2
\]

  1. তেমনি, \( A \) ঘটনা ৩ বার ঘটার সম্ভাবনা হবে:

\[
P(A \text{ ঘটবে 3 বার}) = P(A) \times P(A) \times P(A) = p^3
\]

এভাবে, যদি \( A \) ঘটনা \( n \) বার পুনরাবৃত্তি ঘটে, তাহলে সম্ভাবনা হবে:

\[
P(A \text{ ঘটবে n বার}) = p^n
\]

উদাহরণ:

ধরা যাক, একটি ফ্লিপ করা কয়েনের উল্টো পিঠ (Head) আসার সম্ভাবনা \( 0.5 \)। যদি আমরা কয়েনটি ৩ বার ফ্লিপ করি, তাহলে একই ঘটনা (Head) ৩ বার আসার সম্ভাবনা হবে:

\[
P(\text{Head 3 বার}) = 0.5 \times 0.5 \times 0.5 = 0.125
\]


২. গুণনীয় সম্ভাবনা (Compound Probability)

যখন একাধিক ঘটনার সম্ভাবনা একসাথে বা ধারাবাহিকভাবে ঘটে, তখন সেগুলোর সম্ভাবনা গুণনীয় (compound) বা যোগফলে নির্ণয় করা হয়।

উদাহরণ:

ধরা যাক, একটি ডাইসের প্রত্যেকটি পিঠের (১ থেকে ৬ পর্যন্ত) সম্ভাবনা সমান। যদি \( A \) ঘটনার অর্থ হয় "ডাইসের উপর ৪ আসা", তাহলে \( P(A) = \frac{1}{6} \)। এখন, যদি আমরা ২ বার ডাইস ফেলে একই পিঠ (৪) আসার সম্ভাবনা জানতে চাই, তাহলে তা হবে:

\[
P(\text{৪ আসবে 2 বার}) = P(A) \times P(A) = \frac{1}{6} \times \frac{1}{6} = \frac{1}{36}
\]


৩. নির্দিষ্ট ঘটনা ও ঘটনা গুলোর পুনরাবৃত্তি

অনেক ক্ষেত্রে, যখন ঘটনাগুলোর মধ্যে কিছু নির্দিষ্ট সম্পর্ক থাকে (যেমন, একাধিক কার্যকলাপ বা সিরিজের অংশ), তখন যোগ নিয়ম (Addition Rule) বা গুণ নিয়ম (Multiplication Rule) ব্যবহার করা হয় তাদের যৌথ বা একত্রিত সম্ভাবনা বের করার জন্য।

উদাহরণ:

ধরা যাক, আপনি একটি ডাইস ৫ বার ফেলে প্রতিবার ৪ আসার সম্ভাবনা জানতে চান। এর জন্য গুণ নিয়ম প্রয়োগ হবে:

\[
P(\text{৪ আসবে 5 বার}) = \left(\frac{1}{6}\right)^5 = \frac{1}{7776}
\]


উপসংহার

একই ঘটনার পুনরাবৃত্তি ঘটানোর সম্ভাবনা নির্ণয় করার জন্য, গাণিতিকভাবে গুণ নিয়ম এবং যোগ নিয়ম ব্যবহার করা হয়। প্রতিটি ঘটনার সম্ভাবনা নির্ধারণ করে, তার পরিমাণ বার পুনরাবৃত্তি ঘটানোর সম্ভাবনা বের করা সম্ভব।

পরস্পর বর্জনশীল ও অবর্জনশীল ঘটনার জন্য সম্ভাবনার যোগসূত্র

পরস্পর বর্জনশীল (Mutually Exclusive) ও অবর্জনশীল (Non-Mutually Exclusive) ঘটনার জন্য সম্ভাবনার যোগসূত্র হলো পরিসংখ্যান ও সম্ভাবনা তত্ত্বের গুরুত্বপূর্ণ অংশ। এটি বোঝাতে সাহায্য করে যে কীভাবে দুটি বা তার বেশি ঘটনা একে অপরের সাথে সম্পর্কিত এবং তাদের সংঘটিত হওয়ার সম্ভাবনা নির্ণয় করা যায়।


১. পরস্পর বর্জনশীল (Mutually Exclusive) ঘটনা

যদি দুটি বা তার বেশি ঘটনা পরস্পর বর্জনশীল হয়, তবে তাদের একসাথে ঘটার সম্ভাবনা শূন্য (0)। অর্থাৎ, এক ঘটনাটি ঘটে গেলে অন্যটি ঘটতে পারে না।

যোগসূত্র:

পরস্পর বর্জনশীল ঘটনাগুলোর জন্য যোগ নিয়ম (Addition Rule) ব্যবহার করা হয়, যেটি সহজভাবে বলা যায়:

\[
P(A \cup B) = P(A) + P(B)
\]

এখানে:

  • \(P(A)\) হলো \(A\) ঘটনার সম্ভাবনা,
  • \(P(B)\) হলো \(B\) ঘটনার সম্ভাবনা,
  • \(P(A \cup B)\) হলো \(A\) অথবা \(B\) ঘটার সম্ভাবনা।

উদাহরণ:

ধরা যাক, একটি ডাইসে ৩ অথবা ৪ আসার সম্ভাবনা জানতে চাওয়া হচ্ছে। এখানে, \(A\) ঘটনার অর্থ "৩ আসা" এবং \(B\) ঘটনার অর্থ "৪ আসা"। যেহেতু একে অপরের সাথে পরস্পর বর্জনশীল, তাদের একসাথে ঘটার সম্ভাবনা শূন্য হবে। সুতরাং, তাদের যোগফল হবে:

\[
P(A \cup B) = P(3 \text{ আসা}) + P(4 \text{ আসা}) = \frac{1}{6} + \frac{1}{6} = \frac{2}{6} = \frac{1}{3}
\]


২. অবর্জনশীল (Non-Mutually Exclusive) ঘটনা

যখন দুটি ঘটনা একে অপরের সাথে অবর্জনশীল হয়, তখন তাদের একসাথে ঘটার সম্ভাবনা শূন্য নয়। অর্থাৎ, এই ধরনের ঘটনা একসাথে ঘটতে পারে। উদাহরণস্বরূপ, যদি দুটি ঘটনা \( A \) এবং \( B \) হতে পারে, তবে একে অপরের সাথে একযোগে ঘটতে পারে, এবং তাদের একসাথে ঘটার সম্ভাবনা হিসাব করতে হবে।

যোগসূত্র:

অবর্জনশীল ঘটনাগুলোর জন্য যোগ নিয়ম (Addition Rule) হবে:

\[
P(A \cup B) = P(A) + P(B) - P(A \cap B)
\]

এখানে:

  • \(P(A)\) হলো \(A\) ঘটনার সম্ভাবনা,
  • \(P(B)\) হলো \(B\) ঘটনার সম্ভাবনা,
  • \(P(A \cup B)\) হলো \(A\) অথবা \(B\) ঘটার সম্ভাবনা,
  • \(P(A \cap B)\) হলো \(A\) এবং \(B\) একসাথে ঘটার সম্ভাবনা।

উদাহরণ:

ধরা যাক, একটি ডাইসে ৩ অথবা ৪ আসার সম্ভাবনা আবারো জানা হচ্ছে। এখানে, \(A\) ঘটনার অর্থ "৩ আসা" এবং \(B\) ঘটনার অর্থ "৪ আসা"। সুতরাং, তাদের একসাথে আসার সম্ভাবনা নেই, কারণ ডাইসে একবারে ৩ এবং ৪ একসাথে আসতে পারে না। তাই, \( P(A \cap B) = 0 \)।

তাহলে,

\[
P(A \cup B) = P(3 \text{ আসা}) + P(4 \text{ আসা}) - P(3 \text{ এবং } 4 \text{ আসা}) = \frac{1}{6} + \frac{1}{6} - 0 = \frac{2}{6} = \frac{1}{3}
\]


উপসংহার

  • পরস্পর বর্জনশীল (Mutually Exclusive) ঘটনা এর জন্য যোগসূত্র হলো \( P(A \cup B) = P(A) + P(B) \), কারণ তাদের একসাথে ঘটার সম্ভাবনা শূন্য।
  • অবর্জনশীল (Non-Mutually Exclusive) ঘটনা এর জন্য যোগসূত্র হলো \( P(A \cup B) = P(A) + P(B) - P(A \cap B) \), কারণ তাদের একসাথে ঘটার সম্ভাবনা শূন্য নয় এবং তা হিসাব করতে হয়।

অনির্ভরশীল ও নির্ভলশীল ঘটনার জন্য সম্ভাবনার গুণনসূত্রের প্রয়োগ

অনির্ভরশীল (Independent) ও নির্ভরশীল (Dependent) ঘটনার জন্য সম্ভাবনার গুণনসূত্র (Multiplication Rule for Independent and Dependent Events) সম্ভাবনা তত্ত্বের একটি গুরুত্বপূর্ণ অংশ। এটি আমাদের বুঝতে সাহায্য করে কীভাবে দুটি বা তার বেশি ঘটনা একে অপরের উপর নির্ভরশীল বা নির্ভরশীল না হয়ে ঘটতে পারে এবং সেক্ষেত্রে তাদের সম্মিলিত সম্ভাবনা কিভাবে নির্ণয় করা হয়।


১. অনির্ভরশীল (Independent) ঘটনা

যখন দুটি ঘটনা একে অপরের উপর কোনো প্রভাব ফেলছে না এবং একটির সংঘটিত হওয়া অন্যটির সংঘটিত হওয়ার সম্ভাবনার উপর কোনো প্রভাব সৃষ্টি করে না, তখন ওই ঘটনাগুলো অনির্ভরশীল (Independent) ঘটনা বলে পরিচিত।

গুণনসূত্র:

অনির্ভরশীল ঘটনাগুলোর সম্মিলিত সম্ভাবনা বের করতে গুণ নিয়ম (Multiplication Rule) ব্যবহার করা হয়। এই নিয়ম অনুযায়ী, দুটি অনির্ভরশীল ঘটনার সম্মিলিত সম্ভাবনা হবে:

\[
P(A \cap B) = P(A) \times P(B)
\]

এখানে:

  • \(P(A)\) হলো ঘটনা \(A\) এর সম্ভাবনা,
  • \(P(B)\) হলো ঘটনা \(B\) এর সম্ভাবনা,
  • \(P(A \cap B)\) হলো \(A\) এবং \(B\) একসাথে ঘটার সম্ভাবনা।

উদাহরণ:

ধরা যাক, একটি কয়েন দুই বার ফেলা হচ্ছে। প্রতিবারের উল্টো পিঠ (Heads) আসার সম্ভাবনা \( \frac{1}{2} \)। এখানে, প্রথম ফ্লিপের ফলাফল দ্বিতীয় ফ্লিপের ফলাফলের উপর কোনো প্রভাব ফেলছে না, তাই এই দুই ঘটনা একে অপরের উপর নির্ভরশীল নয়, অর্থাৎ তারা অনির্ভরশীল

তাহলে, প্রথম এবং দ্বিতীয় ফ্লিপে উল্টো পিঠ আসার সম্মিলিত সম্ভাবনা হবে:

\[
P(\text{Heads on 1st and 2nd flip}) = P(\text{Heads on 1st flip}) \times P(\text{Heads on 2nd flip}) = \frac{1}{2} \times \frac{1}{2} = \frac{1}{4}
\]


২. নির্ভরশীল (Dependent) ঘটনা

যখন দুটি ঘটনা একে অপরের উপর নির্ভরশীল হয়, অর্থাৎ একটি ঘটনার ফলাফল অন্যটির সম্ভাবনাকে প্রভাবিত করে, তখন এই ধরনের ঘটনা নির্ভরশীল (Dependent) ঘটনা বলে পরিচিত।

গুণনসূত্র:

নির্ভরশীল ঘটনাগুলোর সম্মিলিত সম্ভাবনা বের করতে গুণ নিয়ম (Multiplication Rule) ব্যবহার করা হয়, তবে এখানে একটি অতিরিক্ত পদ থাকে। নির্ভরশীল ঘটনাগুলোর জন্য গুণনসূত্র হবে:

\[
P(A \cap B) = P(A) \times P(B \mid A)
\]

এখানে:

  • \(P(A)\) হলো ঘটনা \(A\) এর সম্ভাবনা,
  • \(P(B \mid A)\) হলো \(A\) ঘটার পর \(B\) ঘটার শর্তাধীন সম্ভাবনা (Conditional Probability),
  • \(P(A \cap B)\) হলো \(A\) এবং \(B\) একসাথে ঘটার সম্ভাবনা।

উদাহরণ:

ধরা যাক, একটি ব্যাগে ৫টি লাল বল এবং ৪টি নীল বল আছে। প্রথমে একটি বল টানা হচ্ছে, এবং তারপর সেটি ব্যাগে ফেরত না দিয়ে দ্বিতীয় বল টানা হচ্ছে। এখানে, দ্বিতীয় টানাটি প্রথম টানার ফলাফলের উপর নির্ভরশীল, কারণ প্রথম টানার ফলে ব্যাগে বলের সংখ্যা পরিবর্তিত হবে।

ধরা যাক, প্রথম টানায় একটি লাল বল (ঘটনা \(A\)) টানা হচ্ছে। এরপর, দ্বিতীয় টানায় আবার একটি লাল বল (ঘটনা \(B\)) টানার সম্ভাবনা বের করতে হবে।

প্রথম টানায় লাল বল টানার সম্ভাবনা:

\[
P(A) = \frac{5}{9}
\]

এরপর, দ্বিতীয় টানায় লাল বল টানার শর্তাধীন সম্ভাবনা হবে:

\[
P(B \mid A) = \frac{4}{8} = \frac{1}{2}
\]

তাহলে, প্রথম এবং দ্বিতীয় টানায় লাল বল টানার সম্মিলিত সম্ভাবনা হবে:

\[
P(A \cap B) = P(A) \times P(B \mid A) = \frac{5}{9} \times \frac{1}{2} = \frac{5}{18}
\]


উপসংহার

  • অনির্ভরশীল (Independent) ঘটনা এর জন্য গুণনসূত্র হলো:

\[
P(A \cap B) = P(A) \times P(B)
\]

  • নির্ভরশীল (Dependent) ঘটনা এর জন্য গুণনসূত্র হলো:

\[
P(A \cap B) = P(A) \times P(B \mid A)
\]

এই গুণনসূত্রগুলো সাহায্য করে আমরা একাধিক ঘটনা একসাথে ঘটার সম্ভাবনা নির্ণয় করতে, যদি ঘটনার মধ্যে নির্ভরশীলতা থাকে বা না থাকে।

বাস্তব জীবনভিত্তিক সহজ সমস্যার সমাধান

বাস্তব জীবনভিত্তিক সহজ কিছু সম্ভাবনার সমস্যা এবং তাদের সমাধান দেয়া হলো, যা অনির্ভরশীল এবং নির্ভরশীল ঘটনার গুণনসূত্র ও যোগসূত্র ব্যবহার করে সমাধান করা যায়।


১. কয়েন ফেলা: অনির্ভরশীল ঘটনা

ধরা যাক, একটি কয়েন দুটি বার ফেলা হচ্ছে। আমাদের জানতে হবে, প্রথম এবং দ্বিতীয় বার উল্টো পিঠ (Heads) আসার সম্ভাবনা কত?

সমাধান:

  • প্রথম ফ্লিপে Heads আসার সম্ভাবনা \( P(\text{Heads on 1st flip}) = \frac{1}{2} \)
  • দ্বিতীয় ফ্লিপেও Heads আসার সম্ভাবনা \( P(\text{Heads on 2nd flip}) = \frac{1}{2} \)

যেহেতু কয়েনের প্রথম ফ্লিপের ফলাফল দ্বিতীয় ফ্লিপের উপর কোনো প্রভাব ফেলছে না, এই দুটি ঘটনা অনির্ভরশীল

তাহলে, দুটি ফ্লিপে উল্টো পিঠ (Heads) আসার সম্মিলিত সম্ভাবনা হবে:

\[
P(\text{Heads on 1st and 2nd flip}) = P(\text{Heads on 1st flip}) \times P(\text{Heads on 2nd flip}) = \frac{1}{2} \times \frac{1}{2} = \frac{1}{4}
\]


২. বাগান থেকে ফল সংগ্রহ: নির্ভরশীল ঘটনা

ধরা যাক, একটি বাগানে ১০টি আপেল এবং ১৫টি নাশপাতি রয়েছে। প্রথমে একটি আপেল (ঘটনা \( A \)) সংগ্রহ করা হচ্ছে, তারপর সেটি ফেরত না দিয়ে একটি নাশপাতি (ঘটনা \( B \)) সংগ্রহ করতে হবে। আমাদের জানতে হবে, প্রথমে আপেল এবং তারপর নাশপাতি সংগ্রহ করার সম্ভাবনা কত?

সমাধান:

  • প্রথমে একটি আপেল সংগ্রহ করার সম্ভাবনা:

\[
P(A) = \frac{10}{25} = \frac{2}{5}
\]

  • এরপর, একটি আপেল সংগ্রহ করার পর, দ্বিতীয় বার নাশপাতি সংগ্রহ করার শর্তাধীন সম্ভাবনা:

\[
P(B \mid A) = \frac{15}{24} = \frac{5}{8}
\]

এখানে, দ্বিতীয় সংগ্রহের সম্ভাবনা প্রথম সংগ্রহের উপর নির্ভরশীল, কারণ প্রথমে আপেল সংগ্রহ করার পর বাগানে আপেলের সংখ্যা কমে যাবে।

তাহলে, প্রথমে আপেল এবং পরে নাশপাতি সংগ্রহ করার সম্মিলিত সম্ভাবনা হবে:

\[
P(A \cap B) = P(A) \times P(B \mid A) = \frac{2}{5} \times \frac{5}{8} = \frac{10}{40} = \frac{1}{4}
\]


৩. ডাইস ফেলা: পরস্পর বর্জনশীল ঘটনা

ধরা যাক, একটি ডাইস ফেলা হচ্ছে এবং আমাদের জানতে হবে, ৩ অথবা ৪ আসার সম্ভাবনা কত?

সমাধান:

  • \( A \) ঘটনা: ৩ আসা, \( P(A) = \frac{1}{6} \)
  • \( B \) ঘটনা: ৪ আসা, \( P(B) = \frac{1}{6} \)

এখানে, ৩ অথবা ৪ আসা দুটি পরস্পর বর্জনশীল ঘটনা, কারণ একবারে ৩ এবং ৪ একসাথে আসা সম্ভব নয়।

তাহলে, ৩ অথবা ৪ আসার সম্মিলিত সম্ভাবনা হবে:

\[
P(A \cup B) = P(A) + P(B) = \frac{1}{6} + \frac{1}{6} = \frac{2}{6} = \frac{1}{3}
\]


৪. শিক্ষার্থীর গ্রেড: অবর্জনশীল ঘটনা

ধরা যাক, একটি ক্লাসে ১০০ জন শিক্ষার্থী পরীক্ষা দিয়েছে। ৩০ জন ছাত্র পেয়েছে A গ্রেড, ৪০ জন পেয়েছে B গ্রেড, এবং ১০ জন ছাত্র পেয়েছে A এবং B গ্রেড উভয়। আমাদের জানতে হবে, একজন শিক্ষার্থী A অথবা B গ্রেড পাবে, তার সম্ভাবনা কত?

সমাধান:

এখানে, A এবং B গ্রেড পাওয়া দুটি অবর্জনশীল ঘটনা, কারণ কিছু ছাত্র A এবং B উভয় গ্রেড পেয়েছে। তাই তাদের সম্মিলিত সম্ভাবনা নির্ণয় করতে হবে:

\[
P(A \cup B) = P(A) + P(B) - P(A \cap B)
\]

  • \( P(A) = \frac{30}{100} = 0.30 \)
  • \( P(B) = \frac{40}{100} = 0.40 \)
  • \( P(A \cap B) = \frac{10}{100} = 0.10 \)

তাহলে, A অথবা B গ্রেড পাবে এমন শিক্ষার্থীর সম্ভাবনা হবে:

\[
P(A \cup B) = 0.30 + 0.40 - 0.10 = 0.60
\]


এই সমস্যাগুলোর মাধ্যমে আমরা দেখতে পেলাম, অনির্ভরশীল ঘটনা, নির্ভরশীল ঘটনা, এবং অবর্জনশীল ঘটনা নিয়ে কাজ করার জন্য সম্ভাবনা নির্ণয়ের বিভিন্ন পদ্ধতি ব্যবহার করা হয়।

Promotion